Au-delà de la requête brute
Lorsqu'on commence avec des grands modèles linguistiques (LLM), les développeurs utilisent généralement des appels directs à l'API (comme la bibliothèque Python OpenAI) pour envoyer une requête et recevoir une réponse. Bien que fonctionnel, cette approche devient difficile à gérer à mesure que les applications grandissent.
Le problème de l'absence d'état
Les grands modèles linguistiques sont intrinsèquement sans état. Chaque fois que vous envoyez un message, le modèle « oublie » qui vous êtes et ce que vous avez dit auparavant. Chaque interaction est un tableau vierge. Pour maintenir une conversation, vous devez manuellement transmettre l'historique complet au modèle à chaque fois.
La solution LangChain
LangChain introduit le wrapper ChatOpenAI du modèle. Ce n'est pas simplement un wrapper pour le plaisir — c'est la base de la modularité. En abstraction l'appel au modèle, nous pouvons plus tard changer de modèle, intégrer de la mémoire et utiliser des gabarits sans réécrire entièrement notre base de code.
Your task is to create a
ChatOpenAI instance named my_llm with a temperature of 0.7 to allow for more creative (non-deterministic) responses.
from langchain_openai import ChatOpenAImy_llm = ChatOpenAI(temperature=0.7)